Нейросеть DeepSeek произвела фурор в Кремниевой долине, доказав, что мощные ИИ-модели можно создавать с минимальными затратами. Однако за этим прорывом скрывается серьёзная проблема — уязвимость к взлому и манипуляциям. Исследования показали, что модели DeepSeek более подвержены атакам, чем решения от лидеров рынка, таких как OpenAI, Google и Microsoft. Это ставит под сомнение концепцию «демократизации» ИИ, ведь крупные игроки вкладывают миллиарды не только в производительность, но и в защиту своих моделей.

Компаниям, рассматривающим внедрение DeepSeek, необходимо учитывать эти риски.Эксперты LatticeFlow AI, специализирующиеся на безопасности ИИ, выяснили, что версии R1 DeepSeek оказались самыми уязвимыми среди ведущих моделей. При модификации открытых решений Meta (Llama) и Alibaba (Qwen) были нарушены встроенные защитные механизмы. В результате DeepSeek подвержена «перехвату целей» и утечке данных, что позволяет злоумышленникам обходить ограничения и получать запрещённую информацию.Генеральный директор LatticeFlow AI Петар Цанков предупреждает: компании, подключая ИИ к своим системам, добавляют собственные инструкции для защиты данных, но DeepSeek может игнорировать эти ограничения при атаке, открывая доступ к конфиденциальной информации.Adversa AI также обнаружила уязвимости: модели DeepSeek легко взламываются через джейлбрейк, что позволяет злоумышленникам получать инструкции по изготовлению оружия или взлому автомобилей.

В то время как OpenAI и Anthropic усилили защиту, DeepSeek остаётся уязвимой.Несмотря на привлекательную стоимость, использование DeepSeek требует дополнительных мер безопасности. Компании могут дообучить модель, что обойдётся в сотни тысяч долларов, или внедрить строгие фильтры для блокировки утечек данных. Оба варианта увеличивают затраты. Проблемы безопасности сдерживают массовое внедрение ИИ. Согласно Evident Insights, менее четверти из 50 крупнейших банков, использующих генеративный ИИ, смогли добиться реальной экономии или роста доходов из-за опасений по поводу безопасности.

DeepSeek доказал, что ИИ можно сделать дешевле, но дешевизна не всегда означает качество. Безопасность требует значительных инвестиций, и в этом технологические гиганты пока лидируют. В условиях открытой конкуренции бизнес получает то, за что платит.